- Diverse grote techbedrijven die fors inzetten op artificial intelligence (AI), lobbyen tegen de invoering van een wet in Californië die een ‘kill switch’ verplicht voor grote AI-systemen.
- Ook OpenAI, de maker van ChatGPT, klaagt dat deze wet techbedrijven wegjaagt.
- Ondanks de protesten stemt Californië eind deze maand over invoering van de wet.
- Lees ook: Waarom Google zich zorgen moet maken over SearchGPT van OpenAI, volgens een zoekmachine-expert
Startup OpenAI sluit zich aan bij andere techbedrijven uit Silicon Valley in het lobbygevecht tegen de introductie van een verregaande AI-wet in Californië. De staat wil “logische veiligheidsstandaarden'” verplichten in AI-systemen die meer dan 100 miljoen dollar kosten om te ontwikkelen, meldde Business Insider begin deze week.
Techbedrijven vinden de voorgenomen regelgeving te streng en vrezen met name de zogenoemde “kill switch”.
De wet SB 1047 werd in februari ingediend door de Democratische senator Scott Wiener. Het idee is om techbedrijven te verplichten protocollen in hun AI-systemen te implementeren om te voorkomen dat ze “kritieke schade” kunnen aanrichten. Denk aan misbruik voor cyberaanvallen of de ontwikkeling van massavernietigingswapens.
In het wetsvoorstel staat ook dat techbedrijven ervoor moeten zorgen dat er een mogelijkheid in de software bestaat waarmee een AI-model en alle afgeleide modellen hiervan, volledig uitgeschakeld kunnen worden. Een kill switch dus.
Techbedrijven: liever AI-wet op nationaal niveau
Directeur Jason Kwon van OpenAI waarschuwde in een brief voor de gevolgen van de wet. Hij legt uit dat de wet technologische vooruitgang kan tegenhouden en (tech)bedrijven kan doen besluiten om te vertrekken uit Californië, schrijft persbureau Bloomberg.
Een grote zorg van OpenAI, schreef Kwon, is dat Californië en andere Amerikaanse staten eigen AI-regels gaan creëren. Die regels kunnen van elkaar verschillen, wat onwerkbaar zou zijn voor techbedrijven.
OpenAI ziet liever dat de Amerikaanse regering op nationaal niveau AI-wetgeving implementeert, zodat bedrijven met één set regels aan de slag kunnen.
Bredere lobby tegen AI-wet van Californië
Andere techreuzen, zoals Meta en Anthropic, lobbyen al langer tegen het wetsvoorstel. Zij hebben daar ook hun redenen voor.
Meta waarschuwt dat de wet negatieve gevolgen kan hebben voor de ontwikkeling van open-source-software. Softwareprogrammeurs krijgen namelijk te maken met meer juridische verantwoordelijkheden, claimde Meta's beleidsdirecteur Rob Sherman in juni. Volgens Sherman kan de wet het bredere ecosysteem van technologie hinderen omdat kleinere bedrijven innoveren met behulp van open-source-AI-modellen.
AI-startup Anthropic mist balans in het wetsvoorstel van de staat Californië en pleit voor een aanpak die de voortgang van techbedrijven niet belemmert.
De kritiek van OpenAI maakt tot dusver weinig indruk op senator Wiener, die het Californische wetsvoorstel heeft ingediend. Wiener spreekt in een antwoord op de brief van OpenAI over "een zeer redelijk wetsvoorstel dat grote AI-bedrijven vraagt om te doen wat zij al hebben toegezegd."
Het wetsvoorstel is al goedgekeurd door de senaat van de staat Californië. De definitieve stemming, in de zogeheten California Assembly, staat gepland voor eind augustus.
Aanpassingen voor de definitieve stemming
Voordat OpenAI zijn gewicht in de strijd gooide, werd de wet naar aanleiding van de lobby van onder andere Meta en Anthropic al afgezwakt. meldt TechCrunch.
Waar de staat Californië eerder nog op voorhand AI-bedrijven voor de rechter mocht slepen ,als de overheid vond dat er een gevaarlijke ontwikkeling op het gebied van AI aan het plaatsvinden was, mag dat nu niet meer. De staat mag alleen ongenoegen uitten over de gang van zaken en de risico's aankaarten, waarna de AI-maker actie kan ondernemen. Veroorzaakt het AI-systeem in kwestie op een later moment wel schade, dan mag de staat alsnog de maker voor de rechter slepen.
Ook hoeven AI bedrijven geen certificaten van de resultaten van veiligheidstests meer aan te leveren om niet van meineed beschuldigd te worden. De wet stelt nu dat bedrijven alleen de manier waarop ze de veiligheid proberen te garanderen, openbaar moeten maken. Daarnaast moeten de AI-makers "redelijke voorzorgsmaatregelen" nemen om catastrofale gebeurtenissen te voorkomen.
Ook de kleinere bedrijven die met AI werken, zijn wat beter beschermd. Als ze een AI-model van een grotere partij gebruiken en dat naar eigen inzicht aanpassen tot een bedrag van 10 miljoen dollar, ligt de aansprakelijkheid bij de oorspronkelijke maker van het AI-model.
Lobby van AI-bedrijven in de EU
OpenAI, dat naar eigen zeggen voorstander is van regulering door overheidsinstanties, heeft in het verleden gelobbyd tegen vergelijkbare, strenge wetgeving in de Europese Unie. Het bedrijf probeerde de wetgeving te versoepelen rondom algemene AI-systemen als GPT-3, meldde Time.
De EU heeft vervolgens zijn definitieve concept van de AI Act aangepast. Zinnen waarin generatieve AI werd aangeduid als een technologie met een "hoog risico", zijn volgens Time geschrapt.